Keine Geldsumme ist offenbar zu groß, um den verbreiteten Glauben an die generative Künstliche Intelligenz zu untermauern. In den nächsten Jahren wollen die US-amerikanischen Tech-Konzerne rund eine Billion US-Dollar in Rechenzentren, Chips, Infrastrukturen und Stromnetze investieren.
Auch US-Präsident Donald Trump kündigte wenige Tage nach seinem Wiedereinzug ins Weiße Haus das „mit Abstand größte KI-Infrastrukturprojekt der Geschichte“ an. Das Projekt läuft unter dem Namen „Stargate“ und soll in den kommenden vier Jahren bis zu 500 Milliarden US-Dollar in KI-Infrastruktur wie Rechenzentren pumpen.
Auch Europa will in diesem „AI Race“ nicht zurückfallen. Anfang Februar lädt Emmanuel Macron zum AI Action Summit nach Paris – allerdings mit kritischerem Blick auf ökologische und soziale Auswirkungen. Bereits vergangenes Jahr warnte der ehemalige italienische Ministerpräsident Mario Draghi davor, dass die EU im globalen Wettbewerb zurückfallen könnte, wenn sie nicht enorm investiere.
Hohe Rechenleistungen bedeuten sehr viel Energie
Doch es gibt eine andere Seite der Medaille: Dass die generative KI wegen ihrer exorbitant hohen Rechenleistungen sehr viel Energie verbraucht, weiß jeder, der es wissen möchte. Mittlerweile zeigt sich zwar auch, dass generative KI overhyped ist – aber selbst wenn sie ein vergängliches Phänomen ist, liegen die ökologischen Kosten hoch und wachsen stetig an. Der KI-Investment-Boom, der politisch kräftig unterstützt wird, benötigt so hohe Rechenkapazitäten – und damit Energie –, dass er die Klimaneutralität zu verhindern droht.
Weltweit regen sich Proteste gegen den Bau von Hyperscale-Rechenzentren – von Zeewolde in den Niederlanden bis Montevideo in Uruguay. Und das nicht ohne Grund: In Uruguay wird das Trinkwasser knapp, eine Folge der sich zuspitzenden Klimakrise, die jedes Jahr neue Höhepunkte erreicht. 2024 überschritt die globale Temperatur erstmals 1,5 Grad. Bei dem jetzigen weltweiten CO2-Verbrauch wird das Weltklima in den nächsten vier Jahren die Marke von 1,5 Grad wohl endgültig überschreiten. Eine neue energiehungrige Technologie sollte also einen möglichst hohen gesellschaftlichen Nutzen haben, um in Zeiten der Klimakrise vertretbar zu sein.
Die tatsächlichen Ausmaße des Energieverbrauchs generativer KI kommen in den öffentlichen Debatten derzeit nur am Rande vor. Daher ist ein Blick auf die Dimensionen und Ressourcen angebracht, welche die von KI-Gläubigen förmlich angebetete Technologie frisst.
Anbieter generativer KI wie Microsoft räumen ein, dass die Expansion solcher KI und der dazugehörige Strombedarf die früheren Emissionsversprechen der Konzerne torpedieren. Der Software-Konzern versprach beispielsweise vollmundig, bis 2030 CO2-negativ zu werden. Microsoft-Vizechef Brad Smith nannte nun die generative KI als Hauptgrund dafür, dass die Konzernemissionen im Vergleich zum Jahr 2020 um etwa dreißig Prozent angestiegen seien.
Microsoft plant nach Angaben von Smith aktuell, achtzig Milliarden US-Dollar allein im Jahr 2025 in generative KI zu investieren, um seine Vision einer „American AI“ voranzubringen. Mit dieser Summe will das Unternehmen „KI-fähige Rechenzentren aufbauen, in denen KI-Modelle trainiert sowie KI- und Cloud-basierte Anwendungen“ weltweit bereitgestellt werden. Die Energie für diese Investitionen soll unter anderem aus dem stillgelegten Atomkraftwerk Three Mile Island stammen, das Microsoft 2028 wieder in Betrieb nehmen will.
Wie der hohe Energieverbrauch der generativen KI entsteht
Lange wurde das Training der großen Sprachmodelle als wesentlicher Faktor des Energieverbrauchs diskutiert. Bereits 2020 zeigten Emma Strubell und andere Fachleute, dass allein das Training eines Large Language Models (LLM) etwa 284 Kilogramm CO2-Emissionen verursacht. Das LLM verfügte über die inzwischen geradezu winzig anmutende Zahl von 213 Millionen Parametern und eine Trainingsdauer von etwa dreieinhalb Tagen.
Die heutigen LLMs weisen hunderte Milliarden Parameter auf, und der Energieverbrauch von US-Rechenzentren ist im Jahr 2023 auf insgesamt 176 Terawattstunden angestiegen. Er macht damit erstaunliche 4,4 Prozent des landesweiten Gesamtstromverbrauchs aus. Ausschlaggebend ist aber nicht mehr nur das Training. Spätestens seit den Nachrichten über steigende Strompreise durch KI-Einsatz in den Vereinigten Staaten wird klar, dass für die großen generativen Sprachmodelle der gesamte Lebenszyklus – insbesondere die Nutzung – viel relevanter ist.
Das liegt auch daran, dass die Nachfrage erst am Anfang stehen dürfte, sie zumindest aber stetig steigt. Derzeit sind die überwiegenden Anwendungen der generativen KI textbasiert. Doch die multimodalen Anwendungsfälle nehmen sichtbar zu, beispielsweise auch Text-zu-Video. Solche Anwendungsfälle sind unzweifelhaft wesentlich rechenintensiver. Grob berechnet erfordert die Erstellung eines solchen Videos mit generativer KI etwa die hundertfache Energie im Vergleich zu einem entsprechenden textbasierten Output.
Eine im Juni 2024 veröffentlichte Studie errechnete, dass eintausend Anwendungen von Textgeneratoren durchschnittlich 0,047 Kilowattstunden benötigen. Bei Bildgeneratoren landet man schon bei 2,907 Kilowattstunden. Damit brauchen eintausend KI-generierte Bilder also fast so viel Energie, als würde man zwanzig Kilometer mit dem Elektroauto fahren oder 200 Tassen Kaffee kochen.
Zwar bleibt das einzelne LLM-Training weiterhin um Größenordnungen energie- und kohlenstoffintensiver als die einzelne Nutzung der LLMs. Allerdings zeigt schon die sichtbare Allgegenwart von generativer KI und die milliardenfache tägliche Verwendung, dass der Energieverbrauch der Nutzung wegen ihrer Popularität enorm zunimmt.
Milliarden-Investitionen in Rechenzentren
Die Debatte um den ökologischen Fußabdruck von großen Sprachmodellen sollte selbstverständlich nicht auf eine persönliche Verbrauchsdiskussion verkürzt werden. Natürlich kann man sich täglich für oder gegen die Generierung von KI-Bildern entscheiden. Aber es wäre zu kurz gesprungen, auf bloße persönliche Entscheidungen abzustellen. Denn es zeichnet sich ab, dass der breite Einsatz von generativer KI schon bald keine individuelle Entscheidung mehr sein wird. Microsoft beispielsweise plant längst, generative KI in seine Betriebssysteme zu integrieren, so dass eine Nutzung künftig schwerer zu vermeiden oder gar unumgänglich wird.
Die geplanten Investitionen von Microsoft in Höhe von achtzig Milliarden US-Dollar pro Jahr sind nur ein Beispiel. Die Aufrüstung der Rechenzentren und der damit einhergehende Energieverbrauch sind so enorm, dass die Umstellung der Energieproduktion hin zu Erneuerbaren dadurch buchstäblich aufgefressen wird.
Besonders gut lässt sich das in Europa illustrieren. Irland ist schon lange einer der beliebtesten Standorte für Rechenzentren, weil Energiekosten dort vergleichsweise niedrig sind. Einige Rechenzentren sind sogar direkt an das dortige Gasnetz angeschlossen, um eine konstante Stromversorgung zu sichern.
Wo die Rechenzentren mit anderen Branchen um erneuerbare Energien konkurrieren, kaufen sie häufig Zertifikate für Erneuerbare auf, ohne eigene grüne Energie einzuspeisen. Diese Energie fehlt dann anderswo. Selbst konservative Berechnungen zeigen, dass die KI-bedingte Energienachfrage von Rechenzentren so schnell wächst, dass der Ausbau der Erneuerbaren Energien nicht mithalten kann.
Damit droht der Energiehunger der Rechenzentren die europäische Klimaneutralität zu gefährden. Das gilt umso mehr, wenn sich der absehbar massiv steigende Bedarf an Rechenzentren noch weiter auf die Energiewende auswirkt.
Elektroschrottmassen
Aber nicht nur Energie wird massenhaft für den von Marketing getriebenen KI-Boom verbraucht. Für generative KI spielen Graphikprozessoren (GPUs) eine besondere Rolle, die in riesiger Anzahl benötigt werden. Allein der Konzern Meta will bis Ende 2025 sage und schreibe mehr als 1,3 Millionen GPU-Beschleuniger betreiben, wie Marc Zuckerberg jüngst mitteilte.
Der wichtigste Player bei GPUs ist der Konzern Nvidia, von dem fast die gesamte Branche abhängt. Nvidia veröffentlicht zwar keine Lifecycle-Analysen – aber bekannt ist mittlerweile auch hier: Der Ressourcenverbrauch für die Chips ist hoch und die Lieferkette alles andere als sauber.
Einerseits werden die Rohstoffe für Chips wie Silizium und für den Bau von Rechenzentren – von Lithium bis Kobalt – global unter umweltschädlichen und menschenrechtsverletzenden Zuständen abgebaut. Andererseits wird die Hardware kaum recycelt. Erste Berechnungen gehen davon aus, dass allein der Elektroschrott durch das Aussortieren von Servern und anderen Computern von etwa 2.550 Tonnen im Jahr 2023 durch das Anwachsen der generativen KI auf – je nach Szenario – fast schon unglaubliche 0,4 bis zu 2,5 Millionen Tonnen im Jahr 2030 ansteigen könnte.
Die LLM-bezogene Elektromüllmasse wüchse nach diesen Berechnungen bis zum Jahr 2030 um 129 Prozent bis 167 Prozent an. Allerdings sind die gebauten und geplanten KI-Rechenzentren keineswegs gleich auf der Welt verteilt. Sondern sie befinden sich geographisch am häufigsten in Nordamerika (58 Prozent), gefolgt von Ostasien (25 Prozent) und Europa (14 Prozent). Hier fallen dann auch entsprechend die Elektroschrottmassen an. Verschifft und abgelagert werden sie jedoch vor allen Dingen im Globalen Süden, etwa auf der größten Elektroschrotthalde der Welt in Ghana.
GPU-Hersteller wie Nvidia haben bisher nur wenige Anreize, um ihre Produktionsbedingungen offenzulegen und etwa konkrete Angaben zu verwendeten Metallen und Mineralien zu machen. Eine Forderung liegt daher auf der Hand: Künftig sollten die Nachhaltigkeitsberichte der GPU-Hersteller zu mehr Transparenz beitragen. Dann hätten etwa Betreiber von Rechenzentren die Möglichkeit, sich für Hardware zu entscheiden, die nachhaltiger hergestellt wurde.
Zwar gibt es in Europa neue Regeln zur Beschaffung von verantwortungsvoll produzierten Mineralien. Die EU-Richtlinien zur Nachhaltigkeitsberichterstattung (CSRD) und zur Nachhaltigkeitsprüfung (CSDDD) brachten ab dem 1. Januar 2024 neue Rechenschaftspflichten für Unternehmen bei Umwelt-, Nachhaltigkeits- und Sozialfragen. Seither sind alle großen europäischen Unternehmen sowie alle EU-börsennotierten Unternehmen auskunftspflichtig. Allerdings gibt es derzeit noch zu wenig Transparenz, um willigen Betreibern von Rechenzentren nachhaltigere Entscheidungsalternativen nahelegen zu können. Das betrifft sowohl den Bergbaubereich, Metalle und Mineralien als auch die Menschenrechte.
Aber kann KI nicht das Klima retten?
Künstliche Intelligenz kann im Kampf gegen die Klimakrise sinnvoll eingesetzt werden – aber nicht unbedingt generative KI. Selbst der beste Chatbot kann schließlich kein CO2 aus der Luft ziehen.
So gibt es kluge technische Lösungen, die etwa wichtige Daten zur Klimakrise auswerten. Wenn aber die Ergebnisse eines KI-Systems oder einer anderen Software nicht direkt mit einer Handlung verbunden sind, sondern zunächst nur Informationen liefern, dann ist das vielleicht ein Fortschritt, bringt im Klimakampf aber wenig.
Generative KI ist inhärent ein nicht nachhaltiges System. Sie kann zu den Klima- und Nachhaltigkeitszielen wenig bis nichts beitragen. Schlimmer noch: Sowohl die Schaffung großer Sprachmodelle als auch deren Nutzung sind nicht nur nicht nachhaltig, sondern in hohem Maße umweltschädlich. Generative KI bringt also keine Lösung für die Klimakrise, sondern heizt sie massiv an, insbesondere wenn alle weiter kopflos dem Marketingversprechen folgen, wonach generative KI so gut wie alle Branchen quasi revolutionieren werde.
Gegen den KI-Glauben gibt es bisher nur wenig öffentlichen Gegenwind. Doch weltweit wehrt sich die Zivilgesellschaft: von indigenen Bewegungen im schwedischen Sapmí, die gegen Metas Rechenzentren demonstrieren, bis hin zu Protestierenden in Montevideo, die ihr Trinkwasser gegen Verschmutzungen durch Googles Rechenzentren schützen wollen. Doch die Diskussionen um den Energie- und Wasserverbrauch, die problematischen Arbeitsbedingungen oder auch die kolonialen Kontiunitäten beginnen erst.
Mit Blick auf Deutschland lassen sich im Vorfeld der Bundestagswahl drei zentrale Forderungen in Bezug auf die ökologischen Kosten der generativen KI erheben: Erstens braucht es strenge Transparenz über den Energie- und Ressourcenverbrauch von Rechenzentren. Zweitens sollte staatliche Förderung nur an spezifische KI-Modelle gehen, die explizit Nachhaltigkeitskriterien erfüllen. Und drittens brauchen wir eine breite gesellschaftliche Debatte darüber, ob und wie wir uns umweltschädliche KI-Systeme in Zeiten der Klimakrise leisten können – und wollen.
Friederike Hildebrandt ist Ökonomin, beschäftigt sich mit Klima- und Stadtpolitik und koordiniert das „Bits & Bäume“-Bündnis. Zusammen mit Constanze Kurz hielt sie Ende Dezember 2024 für das Bündnis einen gleichnamigen Vortrag beim Chaos Communication Congress. Das Bündnis hat diese Woche Forderungen zu Digitalisierung und Nachhaltigkeit zur Bundestagswahl 2025 vorgelegt.
FYI
>> Das Bündnis hat diese Woche Forderungen zu Digitalisierung und Nachhaltigkeit zur Bundestagswahl 2025 vorgelegt.
Ein Präsenz-Workshop am Leibniz-Rechenzentrum zeigte auf, welche Möglichkeiten das CS-2-System von Cerebras Systems Wissenschaft und Forschung bietet: Neben dem Training von großen Sprachmodellen und Mustererkennung kann es auch Anwendungen des Höchstleistungsrechnens beschleunigen.
https://www.lrz.de/presse/ereignisse/2024-09-11-Cerebras-Workshop/
Die Technik empfiehlt sich auch für Anwendungen des High-Performance Computings (HPC): „Projekte, die eine hohe Speicherbandbreite erfordern und davon profitieren, dass die Arbeitsdaten in der Nähe der Rechenkerne gespeichert sind, können auf dem CS-2-System effizient ausgeführt werden,“ sagt LRZ-Forscher Jophin John vom BDAI-Team. Zurzeit laufen die ersten HPC-Projekte am LRZ, bei denen die Technik zum Einsatz kommen soll.
850,000 Kerne optimiert für sparsame, lineare Algebra
46,225 mm2 Silicon
2.6 Billionen Transistoren
40 gigabytes Speicher auf dem Chip
20 PByte/s Speicherbandbreite
220 Pbit/s fabric bandwidth
7nm Prozesstechnologie
>> sustained system power of >> ~21kW << vergleichbar mit einem haushaltstypischen elektronisch gesteuertern Durchlauferhitzer mit einer Anschlussleistung von 21 kW
https://uspto.report/patent/grant/10777532
Die Rechnung scheint um etwas über Faktor 6 ungenau zu sein.
Hier eine Rechnung mit einem lokalem Stable Diffuson Bildgenerator.
Eine der noch beliebtesten Grafikkarten in dem Bereich (durch ihr Preis/Leistung Verhältnis) ist die Nvidia 3060 (ohne Super oder Ti) mit 170 Watt Spitzenleistung. Ein typisches Bild braucht 10 Sekunden. Damit kommen wir 1.700.000 Wattsekunden Verbrauch wenn die Karte voll ausgelastet ist, was 0,47 kWh entspricht und damit Faktor 6,16 geringer ist als die im Artikel genannten 2,907 kWh.
Vereinfachende Annahmen:
– Ein Bild braucht ganze 10 Sekunden
– 170 Watt werden in den vollen 10 Sekunden erreicht
– Nvidia 40xx Grafikkarten sind eventuell effizienter
Ich selbst komme zu ähnlichen Berechnungen, allerdings dauert bei mir mit Stable Diffusion eine Bildgenerierung 14 Sekunden. (Wir bezogen uns im Artikel aber auf die verlinkten Berechnungen und nicht auf eigene Versuche.)
Danke für diesen Beitrag
Mit diesen Gelder, hätte man die Zukunft Afrika aufbauen können.
Hungersnöte, Krankheiten, usw. bekämpfen und gegen die Abwnderung dort die Wirtschaft aufbauen können.